((Traduction automatisée par Reuters à l'aide de l'apprentissage automatique et de l'IA générative, veuillez vous référer à l'avertissement suivant: https://bit.ly/rtrsauto)) par Stephen Nellis
Microsoft MSFT.O a dévoilé lundi la deuxième génération de sa puce d'intelligence artificielle interne, ainsi que des outils logiciels qui s'attaquent à l'un des principaux avantages concurrentiels de Nvidia NVDA.O auprès des développeurs. La nouvelle puce "Maia 200" est mise en service cette semaine dans un centre de données de l'Iowa, et il est prévu d'en installer un second en Arizona, a indiqué Microsoft. Il s'agit de la deuxième génération d'une puce d'IA appelée Maia que Microsoft a introduite en 2023 .
Le Maia 200 arrive alors que les grandes entreprises de cloud computing telles que Microsoft, Google d'Alphabet et Amazon Web Services d'Amazon.com - certains des plus gros clients de Nvidia - produisent leurs propres puces qui concurrencent de plus en plus Nvidia. Google, en particulier, a suscité l'intérêt de clients importants de Nvidia tels que Meta Platforms, qui travaille en étroite collaboration avec Google pour combler l'une des plus grandes lacunes logicielles entre Google et les offres de puces d'intelligence artificielle de Nvidia. Pour sa part, Microsoft a déclaré qu'elle offrirait, en même temps que la nouvelle puce Maia, un ensemble d'outils logiciels pour la programmer. Il s'agit notamment de Triton, un outil logiciel open-source auquel contribue largement le créateur de ChatGPT, OpenAI, et qui prend en charge les mêmes tâches que Cuda, le logiciel de Nvidia qui, selon de nombreux analystes de Wall Street, constitue le plus grand avantage concurrentiel de Nvidia .
Comme les prochaines puces phares "Vera Rubin" de Nvidia présentées au début du mois, la Maia 200 de Microsoft est fabriquée par Taiwan Semiconductor Manufacturing Co 2330.TW à l'aide d'une technologie de fabrication de puces à 3 nanomètres et utilisera des puces de mémoire à large bande passante, bien qu'il s'agisse d'une génération plus ancienne et plus lente que les prochaines puces de Nvidia. Mais Microsoft s'est également inspiré de certains concurrents de Nvidia en dotant la puce Maia 200 d'une quantité importante de ce que l'on appelle la SRAM, un type de mémoire qui peut offrir des avantages en termes de vitesse pour les chatbots et autres systèmes d'intelligence artificielle lorsqu'ils traitent les demandes d'un grand nombre d'utilisateurs. Cerebras Systems, qui a récemment conclu un accord de 10 milliards de dollars avec OpenAI pour fournir de la puissance de calcul, s'appuie fortement sur cette technologie, tout comme Groq, la startup à laquelle Nvidia a accordé une licence sur la technologie dans le cadre d'un accord estimé à 20 milliards de dollars.

0 commentaire
Vous devez être membre pour ajouter un commentaire.
Vous êtes déjà membre ? Connectez-vous
Pas encore membre ? Devenez membre gratuitement
Signaler le commentaire
Fermer